Théorie des Probabilités

Marchand Jean-Louis

2025-02-12


1. Pas de panique


1.1 Dans les grandes lignes


2. Généralités


2.1 Quelle utilisation ?


2.2 Un peu d’histoire (mais pas trop non plus)


2.2.1 Rappels sur la manipulation d’ensembles


2.3 Cadre mathématique : Univers

2.3.1 Définition

l’univers noté \(\Omega\) est un ensemble de tous les éléments \(\omega\) représentant chacun une éventualité de l’expérience considérée


2.4 Cadre mathématique : Evénement

2.4.1 Idées importantes à retenir


2.5 Cadre mathématique : Probabilité

2.5.1 Définition

une probabilité sur \(\Omega\) muni de la tribu \(\mathcal T\) est une fonction \(\mathbb P\) de \(\mathcal T\) dans \([0;1]\), telle que

$$\mathbb P( A_1 \cup A_2 \cup A_3 \cup \dots) = \mathbb P(A_1)+\mathbb P(A_2)+\mathbb P(A_3)+\dots$$ (probabilité d’une réunion d’évènements disjoints/incompatibles égal à la somme des probabilités respectives des évènements)

A nice image.A nice image.


2.6 Cadre mathématique : Probabilité

2.6.1 Propriété

soit \(\mathbb P\) une probabilité sur \((\Omega, \mathcal T)\), et \(A,B\in\mathcal T\)


3. Probabilités sur univers fini


3.1 La base de compréhension des probabilités


3.2 Cas équiprobable


3.2.1 Exemples

  1. quelle est la probabilité de n’avoir aucun 6 sur 3 lancers successifs d’un même dé ?
  2. quelle est la probabilité de n’avoir aucun 6 sur le lancer de trois dés ?
  3. quelle est la probabilité de n’avoir qu’un seul 6 sur 3 lancers de dé ?
  4. quelle est la probabilité d’avoir un carré (4 cartes de même valeur) au poker ?
  5. calculer la probabilité d’obtenir exactement 5 fois un 6 sur 10 lancers

3.3 Et sinon ?

3.3.1 Propriété

si \(\Omega=\{\omega_1,\dots,\omega_n\}\) est un univers fini. Pour définir une probabilité sur l’univers \(\Omega\), il faut et il suffit de définir une liste de nombres positifs \((p_1,\dots,p_n)\) telle que


4. Retour au cadre général


4.1 Probabilités conditionnelles

4.1.1 Définition

soient \(A\) et \(B\) deux événements tels que \(\mathbb P(B)\neq 0\), alors on définit la probabilité conditionnelle de \(A\) sachant \(B\) > est la quantité notée \(\mathbb P(A|B)\) définie par $$\mathbb P(A|B)=\frac{\mathbb P(A\cap B)}{\mathbb P(B)}$$

4.1.2 Propriété

la probabilité conditionnelle \(\mathbb P(.|B)\) est une probabilité en tant que fonction et donc satisfait toutes les propriétés inhérentes


4.2 Partition

4.2.1 Définition

une famille d’événements non-vides \((A_1,\dots,A_n)\) forme une partition de \(\Omega\) si

  1. \(\bigcup_{k=1}^n A_k = \Omega\)
  2. \(A_i \cap A_j = \emptyset,\quad \forall i\neq j\)

4.3 Formules centrales

4.3.1 Probabilités totales

soit \((A_1,\dots,A_n)\) une partition de \(\Omega\) alors pour tout événement \(B\) $$\mathbb P(B) = \sum_{k=1}^n \mathbb P(B|A_k)\mathbb P(A_k)$$

4.3.2 Formule de Bayes

sous les mêmes hypothèses $$\mathbb P(A_{k_0}|B) = \frac{\mathbb P(B|A_{k_0})\mathbb P(A_{k_0})}{\sum_{k=1}^n \mathbb P(B|A_k)\mathbb P(A_k)}$$


4.4 Jeu de Monty Hall


4.5 Indépendance

4.5.1 Définition

deux événements \(A\) et \(B\) sont indépendants si $$\mathbb P(A|B)=\mathbb P(A)$$

4.5.2 Propriété

soient \(A\) et \(B\) deux événements tels que \(\mathbb P(A),\mathbb P(B)\neq 0\), alors les assertions suivantes son équivalentes

  1. \(\mathbb P(A|B)=\mathbb P(A)\)
  2. \(\mathbb P(A|\bar B)=\mathbb P(A)\)
  3. \(\mathbb P(A\cap B)=\mathbb P(A)\mathbb P(B)\)
  4. \(\mathbb P(B|A)=\mathbb P(B)\)

5. Variables aléatoires


5.1 Pourquoi ?

5.1.1 Définition

une variable aléatoire réelle est une fonction qui à toute issue \(\omega \in\Omega\) associe un réel, cette fonction étant compatible avec la probabilité, au sens que pour tout intervalle \(I\) de réels, la quantité $$\mathbb P(X\in I)=\mathbb P(\{\omega\in\Omega \colon X(\omega)\in I\})$$ est toujours définie.


5.2 Variables aléatoires

5.2.1 Définition

un couple de variables aléatoires réelles est une fonction qui à toute issue \(\omega \in\Omega\) associe un couple de réels, cette fonction étant compatible avec la probabilité, au sens que pour tous intervalles \(I\) et \(J\) de réels, la quantité $$\mathbb P(X\in I,\, Y\in J)=\mathbb P(\{\omega\in\Omega \colon X(\omega)\in I \,\&\, Y(\omega)\in J\})$$ est toujours définie.


5.3 Loi

5.3.1 Définition


5.4 Variables indépendantes

5.4.1 Définition

deux variables réelles \(X\) et \(Y\) sont indépendantes si la loi du couple vérifie pour tous intervalles \(I\) et \(J\) $$\mathbb P(X\in I, Y\in J)=\mathbb P(X\in I)\mathbb P(Y\in J)$$


5.5 Variables aléatoires discrètes

5.5.1 Propriété


5.6 Lois discrètes usuelles


5.7 Loi de Bernoulli de paramètre \(p\)


5.8 Loi binomiale pour \(n=10\) et \(p\)


5.9 Loi binomiale pour \(n=100\) et \(p\)


5.10 Loi de Poisson de paramètre \(\lambda\)


5.11 Loi géométrique de paramètre \(p\)


5.12 Loi hypergéométrique


5.13 Propriétés remarquables

5.13.1 Propriété : approximation de la loi binomiale par la loi de Poisson

soit \((p_n)_{n\in\mathbb N}\) une suite de réels compris entre 0 et 1 telle que la suite \((np_n)_{n\in\mathbb N}\) soit convergente vers une constante non-nulle $$\lim_{n\to\infty}np_n=\lambda>0,$$ alors $$\lim_{n\to\infty}\binom nk p_n^k(1-p_n)^{n-k}=\frac{\lambda^k}{k!}e^{-\lambda}$$


5.14 Propriétés remarquables

5.14.1 Propriété : somme de lois de Poisson

si \(X\) et \(Y\) sont deux variables indépendantes de loi de Poisson de paramètres respectifs \(\lambda\) et \(\mu\) alors \(Z= X+Y\) suit une loi de Poisson de paramètre \(\lambda + \mu\)

5.14.2 Propriété : somme de lois binomiales

si \(X\) et \(Y\) sont deux variables indépendantes de loi binomiales de paramètres respectifs \((n,p)\) et \((m,p)\) alors \(Z= X+Y\) suit une loi binomiales de paramètres \((n+m,p)\)


5.15 Espérance et variance

5.15.1 Définition

l’espérance d’une variable aléatoire discrète \(X\) est la quantité notée \(\mathbb E[X]\) définie par la moyenne pondérée des valeurs de \(X(\Omega)\) $$\mathbb E[X] = \sum_k x_k \mathbb P(X=x_k)$$


5.16 Propriétés de l’espérance

5.16.1 Propriété


5.17 Définition


5.18 Propriétés calculatoires


5.19 Force du lien linéaire

5.19.1 Définition

Soient \((X,Y)\) un couple de variables aléatoires réelles de variances finies, alors le coefficient de corrélation linéaire entre \(X\) et \(Y\) est donnée par $$\mathrm{corr}(X,Y)=\frac{\textrm{Cov}(X,Y)}{\sqrt{\mathbb V(X)}\sqrt{\mathbb V(Y)}}.$$


5.20 Fonction de répartition

5.20.1 Définition

pour toute variable aléatoire réelle \(X\), on peut définir sa fonction de répartition notée souvent \(F_X\) définie par $$F(x)=\mathbb P(X\leq x),\qquad \forall x\in\mathbb R$$


5.21 Variables aléatoires continues

5.21.1 Définition

une variable aléatoire réelle continue est une variable réelle dont la fonction de répartition est continue

5.21.2 Propriété

pour toute variable aléatoire \(X\) continue, il existe une fonction \(f_X\) dite de densité telle que $$\forall x\in\mathbb R,\quad F_X(x)=\int_{-\infty}^xf_X(t)dt$$


5.22 Variables aléatoires continues


5.23 Lois continues usuelles


5.24 Loi uniforme sur un segment


5.25 Loi exponentielle


5.26 Loi normale


5.27 Espérance et variance

5.27.1 Définition

l’espérance \(\mathbb E[X]\) d’une variable aléatoire continue \(X\) de densité \(f_X\) est donnée par $$\mathbb E[X]=\int_{-\infty}^{+\infty} tf_X(t)dt$$


5.28 Espérance et variance

5.28.1 Définition

la variance \(\mathbb V[X]\) d’une variable aléatoire continue \(X\) de densité \(f_X\) est donnée par $$\mathbb E[(X-\mathbb E[X])^2]=\int_{-\infty}^{+\infty} (t-\mathbb E[X])^2f_X(t)dt$$

5.28.2 Propriété

si \(X\) et \(Y\) sont deux variables de lois normales respectives \(\mathcal N(\mu_X,\sigma_X)\) et \(\mathcal N(\mu_Y,\sigma_Y)\) telles que toute combinaison linéaire de \(X\) et \(Y\) suit encore une loi normale, alors les deux variables sont indépendantes si et seulement si elles sont décorrélées


5.29 Propriétés remarquables

5.29.1 Propriété : absence de mémoire

si \(X\) suit une loi géométrique ou exponentielle, alors pour tous réels \(s\) et \(t\) $$ \mathbb P(X\geq s+t|X\geq t)= \mathbb P(X\geq s)$$


5.30 Propriétés remarquables

5.30.1 Théorème : Lois des Grands Nombres

soit \((X_1,X_2,\dots,X_n,\dots)\) une suite de variables aléatoires indépendantes de même loi telle que \(|X_1|\) admette une espérance finie alors $$\mathbb P\left( \lim_{n\to +\infty}\frac{X_1+X_2+\dots+X_n}n=\mathbb E[X]\right)=1$$


5.31 Illustration


5.31.1 Propriétés remarquables

5.31.2 Théorème Central Limite

soit \((X_1,X_2,\dots,X_n,\dots)\) une suite de variables aléatoires indépendantes de même loi telle que \(X_1^2\) admette une espérance finie alors $$\lim_{n\to+\infty} \mathbb P\left(\frac{\bar X_n-\mathbb E[X]}{\tfrac{\sigma}{\sqrt n }}\leq x\right)=\Phi(x),$$ où \(\Phi\) est la fonction de répartition la loi \(\mathcal N(0,1)\)


5.32 Illustration